Machine learning mit Python und Scikit-learn und TensorFlow das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics

Gespeichert in:
Bibliographische Detailangaben
Vorheriger Titel:Raschka, Sebastian
Machine learning mit Python
Hauptverfasser: Raschka, Sebastian (VerfasserIn), Mirjalili, Vahid (VerfasserIn)
Weitere Verfasser: Lorenzen, Knut (ÜbersetzerIn)
Format: Buch
Sprache:German
Veröffentlicht: Frechen mitp 2018
Ausgabe:2., aktualisierte und erweiterte Auflage
Schlagworte:
Online-Zugang:Inhaltsverzeichnis
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!

MARC

LEADER 00000nam a22000008c 4500
001 BV044694981
003 DE-604
005 20190408
007 t|
008 171221s2018 gw |||| |||| 00||| ger d
015 |a 17,N50  |2 dnb 
015 |a 18,A10  |2 dnb 
016 7 |a 1147881359  |2 DE-101 
020 |a 9783958457331  |c Broschur : EUR 49.99 (DE), circa EUR 49.99 (AT)  |9 978-3-95845-733-1 
020 |a 3958457339  |9 3-95845-733-9 
024 3 |a 9783958457331 
028 5 2 |a Bestellnummer: 95845733 
035 |a (OCoLC)1018470551 
035 |a (DE-599)DNB1147881359 
040 |a DE-604  |b ger  |e rda 
041 0 |a ger 
044 |a gw  |c XA-DE-NW 
049 |a DE-M49  |a DE-703  |a DE-29T  |a DE-1102  |a DE-739  |a DE-20  |a DE-706  |a DE-11  |a DE-523  |a DE-91G  |a DE-860  |a DE-19  |a DE-1043  |a DE-573  |a DE-634  |a DE-858  |a DE-M347  |a DE-83  |a DE-898  |a DE-92  |a DE-1049  |a DE-861  |a DE-473  |a DE-1046  |a DE-1051  |a DE-384  |a DE-1047 
082 0 |a 004  |2 23 
082 0 |a 005.133  |2 22/ger 
082 0 |a 006.31  |2 22/ger 
084 |a ST 250  |0 (DE-625)143626:  |2 rvk 
084 |a ST 300  |0 (DE-625)143650:  |2 rvk 
084 |a ST 302  |0 (DE-625)143652:  |2 rvk 
084 |a ST 530  |0 (DE-625)143679:  |2 rvk 
084 |a 004  |2 sdnb 
084 |a DAT 708f  |2 stub 
084 |a DAT 368f  |2 stub 
084 |a DAT 316f  |2 stub 
100 1 |a Raschka, Sebastian  |e Verfasser  |0 (DE-588)1080537872  |4 aut 
240 1 0 |a Python machine learning 
245 1 0 |a Machine learning mit Python und Scikit-learn und TensorFlow  |b das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics  |c Sebastian Raschka, Vahid Mirjalili ; Übersetzung aus dem Amerikanischen von Knut Lorenzen 
250 |a 2., aktualisierte und erweiterte Auflage 
264 1 |a Frechen  |b mitp  |c 2018 
300 |a 577 Seiten  |b Diagramme  |c 24 cm x 17 cm 
336 |b txt  |2 rdacontent 
337 |b n  |2 rdamedia 
338 |b nc  |2 rdacarrier 
650 0 7 |a Maschinelles Lernen  |0 (DE-588)4193754-5  |2 gnd  |9 rswk-swf 
650 0 7 |a Big Data  |0 (DE-588)4802620-7  |2 gnd  |9 rswk-swf 
650 0 7 |a Python  |g Programmiersprache  |0 (DE-588)4434275-5  |2 gnd  |9 rswk-swf 
650 0 7 |a Python 3.4  |0 (DE-588)1053433689  |2 gnd  |9 rswk-swf 
650 0 7 |a Datenanalyse  |0 (DE-588)4123037-1  |2 gnd  |9 rswk-swf 
650 0 7 |a Python 3.5  |0 (DE-588)1113598565  |2 gnd  |9 rswk-swf 
653 |a NumPy 
653 |a SciPy 
653 |a pandas 
653 |a Big Data 
653 |a Algorithmen 
653 |a Datenanalyse 
653 |a Data Scientist 
653 |a Sentiment Analyse 
653 |a Sentiment Analysis 
689 0 0 |a Maschinelles Lernen  |0 (DE-588)4193754-5  |D s 
689 0 1 |a Datenanalyse  |0 (DE-588)4123037-1  |D s 
689 0 2 |a Big Data  |0 (DE-588)4802620-7  |D s 
689 0 3 |a Python 3.4  |0 (DE-588)1053433689  |D s 
689 0 4 |a Python 3.5  |0 (DE-588)1113598565  |D s 
689 0 |5 DE-604 
689 1 0 |a Python  |g Programmiersprache  |0 (DE-588)4434275-5  |D s 
689 1 1 |a Maschinelles Lernen  |0 (DE-588)4193754-5  |D s 
689 1 |5 DE-604 
700 1 |a Mirjalili, Vahid  |0 (DE-588)1147615993  |4 aut 
700 1 |a Lorenzen, Knut  |0 (DE-588)1020241446  |4 trl 
710 2 |a mitp Verlags GmbH & Co. KG  |0 (DE-588)1065362072  |4 pbl 
776 0 8 |i Erscheint auch als  |n Online-Ausgabe, PDF  |z 978-3-95845-734-8  |w (DE-604)BV044795341 
780 0 0 |a Raschka, Sebastian 
780 0 0 |t Machine learning mit Python 
780 0 0 |i Vorangegangen ist  |z 9783958454224  |w (DE-604)BV043799643 
856 4 2 |m Digitalisierung UB Passau - ADAM Catalogue Enrichment  |q application/pdf  |u http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&local_base=BVB01&doc_number=030091852&sequence=000001&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA  |3 Inhaltsverzeichnis 
943 1 |a oai:aleph.bib-bvb.de:BVB01-030091852 

Datensatz im Suchindex

DE-BY-TUM_call_number 0003 DAT 708f 2015 L 246(2)
0104 DAT 708f 2017 A 4028(2)
0202 DAT 708f 2018 A 2384(2)
0303 DAT 708f 2017 L 605(2)
1002 DAT 708f 2018 A 204(2)
DE-BY-TUM_katkey 2297771
DE-BY-TUM_location 00
01
02
03
10
DE-BY-TUM_media_number 040009268053
040009268064
040009416166
040009268042
040009416188
040009416199
040009416202
040009268020
040009268031
040009416177
040008152609
040008615405
040008623596
040008623585
040008623643
040008623632
040008623665
040008623654
040008623574
040008623609
040008623610
040008623621
040008152654
040008152643
040008152632
040008152621
040008152610
040008697765
_version_ 1820852551521665024
adam_text I n haltsverzeich n is Über die Autoren................................................ 15 Über die Korrektoren............................................ 17 Einleitung...................................................... 19 1 Wie Computer aus Daten lernen können............................ 25 1.1 Intelligente Maschinen, die Daten in Wissen verwandeln.......... 25 1.2 Die drei Arten des Machine Learnings............................ 26 1.2.1 Mit überwachtem Lernen Vorhersagen treffen............... 26 1.2.2 Interaktive Aufgaben durch verstärkendes Lernen lösen ... 29 1.2.3 Durch unüberwachtes Lernen verborgene Strukturen erkennen................................................. 31 1.3 Grundlegende Terminologie und Notation.......................... 32 1.4 Entwicklung eines Systems für das Machine Learning.............. 34 1.4.1 Vorverarbeitung: Daten in Form bringen................... 35 1.4.2 Trainieren und Auswahlen eines Vorhersagemodells...... 36 1.4.3 Bewertung von Modellen und Vorhersage anhand unbekannter Dateninstanzen............................... 37 1.5 Machine Leaming mit Python...................................... 37 1.5.1 Python-Pakete installieren............................... 37 1.5.2 Verwendung der Python-Distribution Anaconda.............. 38 1.5.3 Pakete für wissenschaftliches Rechnen, Data Science und Machine Learning......................................... 38 1.6 Zusammenfassung................................................. 39 2 Lemalgorithmen für die Klassifizierung trainieren............... 41 2.1 Künstliche Neuronen: Ein kurzer Blick auf die Anfänge des Machine Learnings............................................... 41 2.1.1 Formale Definition eines künstlichen Neurons............. 42 2.1.2 Die Perzeptron-Lernregel................................. 44 2.2 Implementierung eines Perzeptron-Lernalgorithmus in Python ... 47 2.2.1 Eine objektorientierte Perzeptron-API.................... 47 2.2.2 Trainieren eines Perzeptron-Modells auf die Iris-Datensammlung....................................... 51 2.3 Adaptive lineare Neuronen und die Konvergenz des Lernens.... 56 2.3.1 Straffunktionen mit dem Gradientenabstiegsverfahren minimieren............................................... 57 2.3.2 Implementierung eines adaptiven linearen Neurons in Python................................................... 59 2.3.3 Verbesserung des Gradientenabstiegsverfahrens durch Merkmalstandardisierung................................. 64 2.3.4 Großmaßstäbliches Machine Learning und stochastisches Gradientenabstiegs verfahren............................. 66 2.4 Zusammenfassung................................................. 71 3 Machine-Learning-Klassifizierer mit scikit-leam verwenden....... 73 3.1 Auswahl eines Klassifizierungsalgorithmus....................... 73 3.2 Erste Schritte mit scikit-learn: Trainieren eines Perzeptrons... 74 3.3 Klassenwahrscheinlichkeiten durch logistische Regression modellieren..................................................... 80 3.3.1 Logistische Regression und bedingte Wahrscheinlichkeiten 81 3.3.2 Gewichtungen der logistischen Straffunktion ermitteln.... 84 3.3.3 Konvertieren einer Adaline-Implementierung in einen Algorithmus für eine logistische Regression.............. 87 3.3.4 Trainieren eines logistischen Regressionsmodells mit scikit-learn............................................. 91 3.3.5 Überanpassung durch Regularisierung verhindern........... 93 3.4 Maximum-Margin-Klassifizierung mit Support Vector Machines. .. 96 3.4.1 Maximierung des Randbereichs............................. 97 3.4.2 Handhabung des nicht linear trennbaren Falls mit Schlupfvariablen......................................... 98 3.4.3 Alternative Implementierungen in scikit-learn........... 100 3.5 Nichtlineare Aufgaben mit einer Kernel-SVM lösen............... 101 3.5.1 Kernel-Methoden für linear nicht trennbare Daten........ 101 3.5.2 Mit dem Kemel-Trick Hyperebenen in höherdimensionalen Räumen finden........................................... 103 3.6 Lernen mit Entscheidungsbäumen................................. 107 3.6.1 Maximierung des Informationsgewinns: Daten ausreizen.. 108 3.6.2 Konstruktion eines Entscheidungsbaums................... 112 3.6.3 Mehrere Entscheidungsbäume zu einem Random Forest kombinieren............................................. 116 3.7 k-Nearest-Neighbor: Ein Lazy-Learning-Algorithmus.............. 119 3.8 Zusammenfassung................................................ 123 4 Gut geeignete Trainingsdatenmengen: Datenvorverarbeitung... 125 4.1 Umgang mit fehlenden Daten..................................... 125 4.1.1 Fehlende Werte in Tabellendaten......................... 126 4.1.2 Exemplare oder Merkmale mit fehlenden Daten entfernen............................................... 127 4.1.3 Fehlende Werte ergänzen................................. 128 4.1.4 Die Schätzer-API von scikit-learn....................... 129 4.2 Handhabung kategorialer Daten.................................. 130 4.2.1 Nominale und ordinale Merkmale.......................... 130 4.2.2 Erstellen einer Beispieldatenmenge...................... 130 4.2.3 Zuweisung von ordinalen Merkmalen....................... 131 4.2.4 Codierung der Klassenbezeichnungen...................... 132 4.2.5 One-hot-Codierung der nominalen Merkmale................ 133 4.3 Aufteilung einer Datensammlung in Trainings- und Testdaten .... 136 4.4 Anpassung der Merkmale......................................... 138 4.5 Auswahl aussagekräftiger Merkmale.............................. 140 4.5.1 LÍ- und L2-Regularisierung als Straffunktionen.......... 141 4.5.2 Geometrische Interpretation der L2-Regularisierung.. 141 4.5.3 Dünnbesetzte Lösungen mit Ll-Regularisierung............ 143 4.5.4 Algorithmen zur sequenziellen Auswahl von Merkmalen............................................... 147 4.6 Beurteilung der Bedeutung von Merkmalen mit Random Forests........................................................ 154 4.7 Zusammenfassung................................................ 156 5 Datenkomprimierung durch Dimensionsreduktion................... 159 5.1 Unüberwachte Dimensionsreduktion durch Hauptkomponentenanalyse........................................ 159 5.1.1 Schritte bei der Hauptkomponentenanalyse................ 160 5.1.2 Schrittweise Extraktion der Hauptkomponenten............ 161 5.1.3 Totale Varianz und Varianzaufklärung.................... 164 5.1.4 Merkmalstransformation.................................. 165 5.1.5 Hauptkomponentenanalyse mit scikit-learn................ 168 5.2 Überwachte Datenkomprimierung durch lineare Diskriminanzanalyse............................................ 171 5.2.1 Hauptkomponentenanalyse vs. lineare Diskriminanzanalyse..................................... 172 5.2.2 Die interne Funktionsweise der linearen Diskriminanzanalyse..................................... 173 5.2.3 Berechnung der Streumatrizen.. ....................... 174 5.2.4 Auswahl linearer Diskriminanten für den neuen Merkmalsunterraum..................................... 176 5.2.5 Projektion in den neuen Merkmalsraum.................. 179 5.2.6 LDA mit scikit-learn.................................. 180 5.3 Kemel-Hauptkomponentenanalyse für nichtlineare Zuordnungen verwenden.................................................... 181 5.3.1 Kernel-Funktionen und der Kernel-Trick................ 182 5.3.2 Implementierung einer Kemel-Hauptkomponentenanalyse in Python............................................. 186 5.3.3 Projizieren neuer Datenpunkte......................... 193 5.3.4 Kemel-Hauptkomponentenanalyse mit scikit-learn........ 197 5.4 Zusammenfassung.............................................. 198 6 Best Practices zur Modellbewertung und Hyperparameter-Abstimmung.................................... 201 6.1 Arbeitsabläufe mit Pipelines optimieren...................... 201 6.1.1 Die Wisconsin-Brustkrebs-Datensammlung................ 201 6.1.2 Transformer und Schätzer in einer Pipeline kombinieren......................................... 203 6.2 Beurteilung des Modells durch k-fache Kreuzvalidierung....... 205 6.2.1 2-fache Kreuzvalidierung.............................. 205 6.2.2 k-fache Kreuzvalidierung............................ 206 6.3 Algorithmen mit Lern- und Validierungskurven debuggen........ 211 6.3.1 Probleme mit Bias und Varianz anhand von Lernkurven erkennen.............................................. 211 6.3.2 Überanpassung und Unteranpassung anhand von Validierungskurven erkennen........................... 214 6.4 Feinabstimmung eines Lernmodells durch Rastersuche........... 216 6.4.1 Hyperparameter-Abstimmung durch Rastersuche........... 216 6.4.2 Algorithmenauswahl durch verschachtelte Kreuzvalidierung...................................... 218 6.5 Verschiedene Kriterien zur Leistungsbewertung................ 220 6.5.1 Interpretation einer Wahrheitsmatrix.................. 220 6.5.2 Optimierung der Genauigkeit und der Trefferquote eines Klassifizierungsmodells............................... 222 6.5.3 Receiver-Operating-Characteristic-Diagramme........... 224 6.5.4 Bewertungskriterien für Mehrfachklassifizierungen..... 227 228 231 233 233 237 237 244 247 253 254 255 258 259 263 266 267 267 268 268 270 270 272 275 277 279 282 285 286 286 290 Handhabung unausgewogener Klassenverteilung................. Zusammenfassung............................................. Kombination verschiedener Modelle für das Ensemble Leaming... Ensemble Leaming............................................ Klassifizierer durch Mehrheitsentscheidung kombinieren...... 7.2.1 Implementierung eines einfachen Mehrheitsentscheidungs-Klassifizierers............... 7.2.2 Vorhersagen nach dem Prinzip der Mehrheitsentscheidung treffen........................ Bewertung und Abstimmung des Klassifizierer-Ensembles....... Bagging: Klassifizierer-Ensembles anhand von Bootstrap-Stichproben entwickeln............................ 7.4.1 Bagging kurz zusammengefasst......................... 7.4.2 Klassifizierung der Wein-Datensammlung durch Bagging.............................................. Schwache Klassifizierer durch adaptives Boosting verbessern. 7.5.1 Funktionsweise des Boostings......................... 7.5.2 AdaBoost mit scikit-learn anwenden................... Zusammenfassung............................................. Machine Leaming zur Analyse von Stimmungslagen nutzen....... Die IMDb-Filmdatenbank...................................... 8.1.1 Herunterladen der Datensammlung...................... 8.1.2 Vorverarbeiten der Filmbewertungsdaten............... Das Bag-of-words-Modell..................................... 8.2.1 Wörter in Merkmalsvektoren umwandeln................. 8.2.2 Beurteilung der Wortrelevanz durch das Tf-idf-Maß.... 8.2.3 Textdaten bereinigen................................. 8.2.4 Dokumente in Token zerlegen.......................... Ein logistisches Regressionsmodell für die Dokument- klassifizierung trainieren.................................. Verarbeitung großer Datenmengen: Online-Algorithmen und Out-of-Core Learning........................................ Topic Modeling mit latenter Dirichlet-Allokation............ 8.5.1 Aufteilung von Texten mit der LDA.................... 8.5.2 LDA mit scikit-learn................................. Zusammenfassung............................................. 9 Einbettung eines Machine-Leaming-Modells in eine Webanwendung................................................ 291 9.1 Serialisierung angepasster Schätzer mit scikit-learn.......... 291 9.2 Einrichtung einer SQLite-Datenbank zum Speichern von Daten ... 295 9.3 Entwicklung einer Webanwendung mit Flask...................... 297 9.3.1 Die erste Webanwendung mit Flask....................... 298 9.3.2 Formularvalidierung und -ausgabe....................... 300 9.4 Der Fihnbewertungsldassifizierer als Webanwendung............. 304 9.4.1 Dateien und Ordner - die Verzeichnisstruktur........... 306 9.4.2 Implementierung der Hauptanwendung app.py.............. 306 9.4.3 Einrichtung des Bewertungsformulars.................... 309 9.4.4 Eine Vorlage für die Ergebnisseite erstellen........... 310 9.5 Einrichtung der Webanwendung auf einem öffentlich zugänglichen Webserver........................................ 312 9.5.1 Erstellen eines Benutzerkontos bei PythonAnywhere.... 312 9.5.2 Hochladen der Filmbewertungsanwendung.................. 313 9.5.3 Updatendes Filmbewertungsklassifizierers............... 314 9.6 Zusammenfassung............................................... 316 10 Vorhersage stetiger Zielvariablen durch Regressionsanalyse.... 317 10.1 Lineare Regression............................................ 317 10.1.1 Ein einfaches lineares Regressionsmodell............... 318 10.1.2 Multiple lineare Regression............................ 319 10.2 Die Lebensbedingungen-Datensammlung........................... 320 10.2.1 Einlesen der Datenmenge in einen DataFrame............. 320 10.2.2 Visualisierung der wichtigen Eigenschaften einer Datenmenge............................................. 321 10.2.3 Zusammenhänge anhand der Korrelationsmatrix erkennen............................................... 323 10.3 Implementierung eines linearen Regressionsmodells mit der Methode der kleinsten Quadrate................................ 326 10.3.1 Berechnung der Regressionsparameter mit dem Gradientenabstiegsverfahren............................ 326 10.3.2 Abschätzung der Koeffizienten eines Regressionsmodells mit scikit-learn..................................... 330 10.4 Anpassung eines robusten Regressionsmodells mit dem RANSAC-Algorithmus............................................ 332 10.5 Bewertung der Leistung linearer Regressionsmodelle............ 335 10.6 Regularisierungsverfahren für die Regression einsetzen........ 338 10.7 Polynomiale Regression: Umwandeln einer linearen Regression in eine Kurve................................................. 340 10.7.1 Hinzufugen polynomialer Terme mit scikit-learn......... 341 10.7.2 Modellierung nichtlinearer Zusammenhänge in der Lebensbedingungen- Datensammlung....................... 342 10.8 Handhabung nichtlinearer Beziehungen mit Random Forests..... 346 10.8.1 Entscheidungsbaum-Regression........................... 346 10.8.2 Random-Forest-Regression............................... 348 10.9 Zusammenfassung............................................... 351 11 Verwendung nicht gekennzeichneter Daten: Clusteranalyse....... 353 11.1 Gruppierung von Objekten nach Ähnlichkeit mit dem k-Means-Algorithmus........................................... 353 11.1.1 K-Means-Clustering mit scikit-learn.................... 354 11.1.2 Der k-Means++-Algorithmus.............................. 358 11.1.3 »Harte« und »weiche« Clustering-Algorithmen............ 359 11.1.4 Die optimale Anzahl der Cluster mit dem Ellenbogenkriterium ermitteln.......................... 362 11.1.5 Quantifizierung der Clustering-Güte mit Silhouettendiagrammen.................................. 363 11.2 Cluster als hierarchischen Baum organisieren.................. 368 11.2.1 Gruppierung von Clustern............................... 368 11.2.2 Hierarchisches Clustering einer Distanzmatrix.......... 370 11.2.3 Dendrogramme und Heatmaps verknüpfen................... 373 11.2.4 Agglomeratives Clustering mit scikit-learn............. 375 11.3 Bereiche hoher Dichte mit DBSCAN ermitteln.................... 376 11.4 Zusammenfassung............................................... 382 12 Implementierung eines künstlichen neuronalen Netzes........... 383 12.1 Modellierung komplexer Funktionen mit künstlichen neuronalen Netzen........................................................ 383 12.1.1 Einschichtige neuronale Netze.......................... 385 12.1.2 Mehrschichtige neuronale Netzarchitektur............... 387 12.1.3 Aktivierung eines neuronalen Netzes durch Vorwärtspropagation.................................. 390 12.2 Klassifizierung handgeschriebener Ziffern..................... 392 12.2.1 Die MNIST-Datensammlung................................ 393 12.2.2 Implementierung eines mehrschichtigen Perzeptrons.... 399 12.3 Trainieren eines künstlichen neuronalen Netzes................ 410 12.3.1 Berechnung der logistischen Straffunktion.............. 410 12.3.2 Ein Gespür für die Backpropagation entwickeln.......... 413 12.3.3 Trainieren neuronaler Netze durch Backpropagation..... 415 12.4 Konvergenz in neuronalen Netzen............................... 418 12.5 Abschließende Bemerkungen zur Implementierung neuronaler Netze......................................................... 420 12.6 Zusammenfassung.............................................. 420 13 Parallelisierung des Trainings neuronaler Netze mit TensorFlow.................................................... 423 13.1 TensorFlow und Trainingsleistung.............................. 423 13.1.1 Was genau ist TensorFlow?.............................. 425 13.1.2 TensorFlow erlernen.................................... 425 13.1.3 Erste Schritte mit TensorFlow.......................... 426 13.1.4 Mit Array-Strukturen arbeiten.......................... 428 13.1.5 Entwicklung eines einfachen Modells mit TensorFlows Low-level-API........................................ 430 13.2 Training neuronaler Netze mit TensorFlows High-level-APIs.... 434 13.2.1 Entwicklung mehrschichtiger neuronaler Netze mit TensorFlows Layers-API................................. 435 13.2.2 Entwicklung eines mehrschichtigen neuronalen Netzes mit Keras.............................................. 439 13.3 Auswahl der Aktivierungsfunktionen mehrschichtiger neuronaler Netze......................................................... 444 13.3.1 Die logistische Funktion kurz zusammengefasst.......... 445 13.3.2 Wahrscheinlichkeiten bei der Mehrfachklassifizierung mit der softmax-Funktion abschätzen.................... 447 13.3.3 Verbreiterung des Ausgabespektrums mittels Tangens hyperbolicus........................................... 448 13.3.4 Aktivierung durch rektifizierte Lineareinheiten........ 449 13.4 Zusammenfassung............................................... 451 14 Die Funktionsweise von TensorFlow im Detail................. 453 14.1 Grundlegende Merkmale von TensorFlow.......................... 453 14.2 TensorFlow-Tensoren und deren Rang............................ 454 14.2.1 Rang und Form eines Tensors ermitteln.................. 455 14.3 TensorFlow-Berechnungsgraphen................................. 456 14.4 Platzhalter in TensorFlow..................................... 458 14.4.1 Platzhalter definieren................................. 459 14.4.2 Platzhaltern Daten zuführen............................ 459 460 461 461 464 465 466 469 473 474 477 481 484 487 488 489 489 490 491 500 501 501 504 507 507 508 509 521 527 14.4.3 Platzhalter für Datenarrays mit variierenden Stapelgrößen definieren........................................... Variablen in TensorFlow..................................... 14.5.1 Variablen definieren................................ 14.5.2 Variablen initialisieren............................ 14.5.3 Geltungsbereich von Variablen....................... 14.5.4 Wiederverwendung von Variablen...................... Erstellen eines Regressionsmodells.......................... Ausführung von Objekten in einem TensorFlow-Graphen unter Verwendung ihres Namens..................................... Speichern und wiederherstellen eines Modells in TensorFlow.. Tensoren als mehrdimensionale Datenarrays transformieren.... Mechanismen der Flusskontrolle beim Erstellen von Graphen verwenden................................................... Graphen mit TensorBoard visualisieren....................... 14.11.1 Erweitern Sie Ihre TensorBoard-Kenntnisse........... Zusammenfassung............................................. Bildklassifizierung mit tiefen konvolutionalen neuronalen Netzen........................................... Bausteine konvolutionaler neuronaler Netze.................. 15.1.1 CNNs und Merkmalshierarchie......................... 15.1.2 Diskrete Faltungen.................................. 15.1.3 Subsampling......................................... Implementierung eines CNNs.................................. 15.2.1 Verwendung mehrerer Eingabe- oder Farbkanäle........ 15.2.2 Regularisierung eines neuronalen Netzes mit Dropout Implementierung eines tiefen konvolutionalen neuronalen Netzes mit TensorFlow.............................................. 15.3.1 Die mehrschichtige CNN-Architektur.................. 15.3.2 Einlesen und Vorverarbeiten der Daten............... 15.3.3 Implementierung eines CNNs mit TensorFlows Low-level-API ....................................... 15.3.4 Implementierung eines CNNs mit TensorFlows Layers-API........................................... Zusammenfassung............................................. 529 529 530 530 531 532 532 534 537 538 540 541 541 545 547 548 548 552 553 554 554 555 556 560 560 561 564 565 566 567 568 571 Modellierung sequenzieller Daten durch rekurrente neuronale Netze........................................... Sequenzielle Daten........................................ 16.1.1 Modellierung sequenzieller Daten: Die Reihenfolge ist von Bedeutung.......................................... 16.1.2 Repräsentierung von Sequenzen...................... 16.1.3 Verschiedene Kategorien der Sequenzmodellierung.... Sequenzmodellierung mit RNNs.............................. 16.2.1 Struktur und Ablauf eines RNNs..................... 16.2.2 Aktivierungen eines RNNs berechnen................. 16.2.3 Probleme bei der Erkennung weitreichender Interaktionen...................................... 16.2.4 LSTM-Einheiten..................................... Implementierung eines mehrschichtigen RNNs zur Sequenzmodellierung mit TensorFlow........................ Projekt 1: Analyse der Stimmungslage in der IMDb- Filmbewertungsdatenbank mit mehrschichtigen RNNs.......... 16.4.1 Datenaufbereitung.................................. 16.4.2 Einbettung......................................... 16.4.3 Erstellen eines RNN-Modells........................ 16.4.4 Der Konstruktor der SentimentRNN-Klasse............ 16.4.5 Die build-Methode.................................. 16.4.6 Die train-Methode.................................. 16.4.7 Die predict-Methode................................ 16.4.8 Instanziiemng der SentimentRNN-Klasse.............. 16.4.9 Training und Optimierung des RNN-Modells zur Stimmungsanalyse................................... Projekt 2: Implementierung eines RNNs zur Sprachmodellierung durch Zeichen mit TensorFlow.............................. 16.5.1 Datenaufbereitung ................................. 16.5.2 Erstellen eines RNNs zur Sprachmodellierung durch Zeichen............................................ 16.5.3 Der Konstruktor.................................... 16.5.4 Die build-Methode.................................. 16.5.5 Die train-Methode.................................. 16.5.6 Die sample-Methode................................. 16.5.7 Erstellen und Trainieren des CharRNN-Modells....... 16.5.8 Das CharRNN-Modell im Sampling-Modus............... Zusammenfassung und Schlusswort........................... Stichwortverzeichnis
any_adam_object 1
author Raschka, Sebastian
Mirjalili, Vahid
author2 Lorenzen, Knut
author2_role trl
author2_variant k l kl
author_GND (DE-588)1080537872
(DE-588)1147615993
(DE-588)1020241446
author_facet Raschka, Sebastian
Mirjalili, Vahid
Lorenzen, Knut
author_role aut
aut
author_sort Raschka, Sebastian
author_variant s r sr
v m vm
building Verbundindex
bvnumber BV044694981
classification_rvk ST 250
ST 300
ST 302
ST 530
classification_tum DAT 708f
DAT 368f
DAT 316f
ctrlnum (OCoLC)1018470551
(DE-599)DNB1147881359
dewey-full 004
005.133
006.31
dewey-hundreds 000 - Computer science, information, general works
dewey-ones 004 - Computer science
005 - Computer programming, programs, data, security
006 - Special computer methods
dewey-raw 004
005.133
006.31
dewey-search 004
005.133
006.31
dewey-sort 14
dewey-tens 000 - Computer science, information, general works
discipline Informatik
edition 2., aktualisierte und erweiterte Auflage
format Book
fullrecord <?xml version="1.0" encoding="UTF-8"?><collection xmlns="http://www.loc.gov/MARC21/slim"><record><leader>03673nam a22008778c 4500</leader><controlfield tag="001">BV044694981</controlfield><controlfield tag="003">DE-604</controlfield><controlfield tag="005">20190408 </controlfield><controlfield tag="007">t|</controlfield><controlfield tag="008">171221s2018 gw |||| |||| 00||| ger d</controlfield><datafield tag="015" ind1=" " ind2=" "><subfield code="a">17,N50</subfield><subfield code="2">dnb</subfield></datafield><datafield tag="015" ind1=" " ind2=" "><subfield code="a">18,A10</subfield><subfield code="2">dnb</subfield></datafield><datafield tag="016" ind1="7" ind2=" "><subfield code="a">1147881359</subfield><subfield code="2">DE-101</subfield></datafield><datafield tag="020" ind1=" " ind2=" "><subfield code="a">9783958457331</subfield><subfield code="c">Broschur : EUR 49.99 (DE), circa EUR 49.99 (AT)</subfield><subfield code="9">978-3-95845-733-1</subfield></datafield><datafield tag="020" ind1=" " ind2=" "><subfield code="a">3958457339</subfield><subfield code="9">3-95845-733-9</subfield></datafield><datafield tag="024" ind1="3" ind2=" "><subfield code="a">9783958457331</subfield></datafield><datafield tag="028" ind1="5" ind2="2"><subfield code="a">Bestellnummer: 95845733</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(OCoLC)1018470551</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(DE-599)DNB1147881359</subfield></datafield><datafield tag="040" ind1=" " ind2=" "><subfield code="a">DE-604</subfield><subfield code="b">ger</subfield><subfield code="e">rda</subfield></datafield><datafield tag="041" ind1="0" ind2=" "><subfield code="a">ger</subfield></datafield><datafield tag="044" ind1=" " ind2=" "><subfield code="a">gw</subfield><subfield code="c">XA-DE-NW</subfield></datafield><datafield tag="049" ind1=" " ind2=" "><subfield code="a">DE-M49</subfield><subfield code="a">DE-703</subfield><subfield code="a">DE-29T</subfield><subfield code="a">DE-1102</subfield><subfield code="a">DE-739</subfield><subfield code="a">DE-20</subfield><subfield code="a">DE-706</subfield><subfield code="a">DE-11</subfield><subfield code="a">DE-523</subfield><subfield code="a">DE-91G</subfield><subfield code="a">DE-860</subfield><subfield code="a">DE-19</subfield><subfield code="a">DE-1043</subfield><subfield code="a">DE-573</subfield><subfield code="a">DE-634</subfield><subfield code="a">DE-858</subfield><subfield code="a">DE-M347</subfield><subfield code="a">DE-83</subfield><subfield code="a">DE-898</subfield><subfield code="a">DE-92</subfield><subfield code="a">DE-1049</subfield><subfield code="a">DE-861</subfield><subfield code="a">DE-473</subfield><subfield code="a">DE-1046</subfield><subfield code="a">DE-1051</subfield><subfield code="a">DE-384</subfield><subfield code="a">DE-1047</subfield></datafield><datafield tag="082" ind1="0" ind2=" "><subfield code="a">004</subfield><subfield code="2">23</subfield></datafield><datafield tag="082" ind1="0" ind2=" "><subfield code="a">005.133</subfield><subfield code="2">22/ger</subfield></datafield><datafield tag="082" ind1="0" ind2=" "><subfield code="a">006.31</subfield><subfield code="2">22/ger</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">ST 250</subfield><subfield code="0">(DE-625)143626:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">ST 300</subfield><subfield code="0">(DE-625)143650:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">ST 302</subfield><subfield code="0">(DE-625)143652:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">ST 530</subfield><subfield code="0">(DE-625)143679:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">004</subfield><subfield code="2">sdnb</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">DAT 708f</subfield><subfield code="2">stub</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">DAT 368f</subfield><subfield code="2">stub</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">DAT 316f</subfield><subfield code="2">stub</subfield></datafield><datafield tag="100" ind1="1" ind2=" "><subfield code="a">Raschka, Sebastian</subfield><subfield code="e">Verfasser</subfield><subfield code="0">(DE-588)1080537872</subfield><subfield code="4">aut</subfield></datafield><datafield tag="240" ind1="1" ind2="0"><subfield code="a">Python machine learning</subfield></datafield><datafield tag="245" ind1="1" ind2="0"><subfield code="a">Machine learning mit Python und Scikit-learn und TensorFlow</subfield><subfield code="b">das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics</subfield><subfield code="c">Sebastian Raschka, Vahid Mirjalili ; Übersetzung aus dem Amerikanischen von Knut Lorenzen</subfield></datafield><datafield tag="250" ind1=" " ind2=" "><subfield code="a">2., aktualisierte und erweiterte Auflage</subfield></datafield><datafield tag="264" ind1=" " ind2="1"><subfield code="a">Frechen</subfield><subfield code="b">mitp</subfield><subfield code="c">2018</subfield></datafield><datafield tag="300" ind1=" " ind2=" "><subfield code="a">577 Seiten</subfield><subfield code="b">Diagramme</subfield><subfield code="c">24 cm x 17 cm</subfield></datafield><datafield tag="336" ind1=" " ind2=" "><subfield code="b">txt</subfield><subfield code="2">rdacontent</subfield></datafield><datafield tag="337" ind1=" " ind2=" "><subfield code="b">n</subfield><subfield code="2">rdamedia</subfield></datafield><datafield tag="338" ind1=" " ind2=" "><subfield code="b">nc</subfield><subfield code="2">rdacarrier</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Maschinelles Lernen</subfield><subfield code="0">(DE-588)4193754-5</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Big Data</subfield><subfield code="0">(DE-588)4802620-7</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Python</subfield><subfield code="g">Programmiersprache</subfield><subfield code="0">(DE-588)4434275-5</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Python 3.4</subfield><subfield code="0">(DE-588)1053433689</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Datenanalyse</subfield><subfield code="0">(DE-588)4123037-1</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Python 3.5</subfield><subfield code="0">(DE-588)1113598565</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">NumPy</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">SciPy</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">pandas</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Big Data</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Algorithmen</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Datenanalyse</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Data Scientist</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Sentiment Analyse</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Sentiment Analysis</subfield></datafield><datafield tag="689" ind1="0" ind2="0"><subfield code="a">Maschinelles Lernen</subfield><subfield code="0">(DE-588)4193754-5</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="1"><subfield code="a">Datenanalyse</subfield><subfield code="0">(DE-588)4123037-1</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="2"><subfield code="a">Big Data</subfield><subfield code="0">(DE-588)4802620-7</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="3"><subfield code="a">Python 3.4</subfield><subfield code="0">(DE-588)1053433689</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="4"><subfield code="a">Python 3.5</subfield><subfield code="0">(DE-588)1113598565</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2=" "><subfield code="5">DE-604</subfield></datafield><datafield tag="689" ind1="1" ind2="0"><subfield code="a">Python</subfield><subfield code="g">Programmiersprache</subfield><subfield code="0">(DE-588)4434275-5</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="1" ind2="1"><subfield code="a">Maschinelles Lernen</subfield><subfield code="0">(DE-588)4193754-5</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="1" ind2=" "><subfield code="5">DE-604</subfield></datafield><datafield tag="700" ind1="1" ind2=" "><subfield code="a">Mirjalili, Vahid</subfield><subfield code="0">(DE-588)1147615993</subfield><subfield code="4">aut</subfield></datafield><datafield tag="700" ind1="1" ind2=" "><subfield code="a">Lorenzen, Knut</subfield><subfield code="0">(DE-588)1020241446</subfield><subfield code="4">trl</subfield></datafield><datafield tag="710" ind1="2" ind2=" "><subfield code="a">mitp Verlags GmbH &amp; Co. KG</subfield><subfield code="0">(DE-588)1065362072</subfield><subfield code="4">pbl</subfield></datafield><datafield tag="776" ind1="0" ind2="8"><subfield code="i">Erscheint auch als</subfield><subfield code="n">Online-Ausgabe, PDF</subfield><subfield code="z">978-3-95845-734-8</subfield><subfield code="w">(DE-604)BV044795341</subfield></datafield><datafield tag="780" ind1="0" ind2="0"><subfield code="a">Raschka, Sebastian</subfield></datafield><datafield tag="780" ind1="0" ind2="0"><subfield code="t">Machine learning mit Python</subfield></datafield><datafield tag="780" ind1="0" ind2="0"><subfield code="i">Vorangegangen ist</subfield><subfield code="z">9783958454224</subfield><subfield code="w">(DE-604)BV043799643</subfield></datafield><datafield tag="856" ind1="4" ind2="2"><subfield code="m">Digitalisierung UB Passau - ADAM Catalogue Enrichment</subfield><subfield code="q">application/pdf</subfield><subfield code="u">http://bvbr.bib-bvb.de:8991/F?func=service&amp;doc_library=BVB01&amp;local_base=BVB01&amp;doc_number=030091852&amp;sequence=000001&amp;line_number=0001&amp;func_code=DB_RECORDS&amp;service_type=MEDIA</subfield><subfield code="3">Inhaltsverzeichnis</subfield></datafield><datafield tag="943" ind1="1" ind2=" "><subfield code="a">oai:aleph.bib-bvb.de:BVB01-030091852</subfield></datafield></record></collection>
id DE-604.BV044694981
illustrated Not Illustrated
indexdate 2024-12-24T06:15:42Z
institution BVB
institution_GND (DE-588)1065362072
isbn 9783958457331
3958457339
language German
oai_aleph_id oai:aleph.bib-bvb.de:BVB01-030091852
oclc_num 1018470551
open_access_boolean
owner DE-M49
DE-BY-TUM
DE-703
DE-29T
DE-1102
DE-739
DE-20
DE-706
DE-11
DE-523
DE-91G
DE-BY-TUM
DE-860
DE-19
DE-BY-UBM
DE-1043
DE-573
DE-634
DE-858
DE-M347
DE-83
DE-898
DE-BY-UBR
DE-92
DE-1049
DE-861
DE-473
DE-BY-UBG
DE-1046
DE-1051
DE-384
DE-1047
owner_facet DE-M49
DE-BY-TUM
DE-703
DE-29T
DE-1102
DE-739
DE-20
DE-706
DE-11
DE-523
DE-91G
DE-BY-TUM
DE-860
DE-19
DE-BY-UBM
DE-1043
DE-573
DE-634
DE-858
DE-M347
DE-83
DE-898
DE-BY-UBR
DE-92
DE-1049
DE-861
DE-473
DE-BY-UBG
DE-1046
DE-1051
DE-384
DE-1047
physical 577 Seiten Diagramme 24 cm x 17 cm
publishDate 2018
publishDateSearch 2018
publishDateSort 2018
publisher mitp
record_format marc
spellingShingle Raschka, Sebastian
Mirjalili, Vahid
Machine learning mit Python und Scikit-learn und TensorFlow das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics
Maschinelles Lernen (DE-588)4193754-5 gnd
Big Data (DE-588)4802620-7 gnd
Python Programmiersprache (DE-588)4434275-5 gnd
Python 3.4 (DE-588)1053433689 gnd
Datenanalyse (DE-588)4123037-1 gnd
Python 3.5 (DE-588)1113598565 gnd
subject_GND (DE-588)4193754-5
(DE-588)4802620-7
(DE-588)4434275-5
(DE-588)1053433689
(DE-588)4123037-1
(DE-588)1113598565
title Machine learning mit Python und Scikit-learn und TensorFlow das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics
title_alt Python machine learning
title_auth Machine learning mit Python und Scikit-learn und TensorFlow das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics
title_exact_search Machine learning mit Python und Scikit-learn und TensorFlow das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics
title_full Machine learning mit Python und Scikit-learn und TensorFlow das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics Sebastian Raschka, Vahid Mirjalili ; Übersetzung aus dem Amerikanischen von Knut Lorenzen
title_fullStr Machine learning mit Python und Scikit-learn und TensorFlow das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics Sebastian Raschka, Vahid Mirjalili ; Übersetzung aus dem Amerikanischen von Knut Lorenzen
title_full_unstemmed Machine learning mit Python und Scikit-learn und TensorFlow das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics Sebastian Raschka, Vahid Mirjalili ; Übersetzung aus dem Amerikanischen von Knut Lorenzen
title_old Raschka, Sebastian
Machine learning mit Python
title_short Machine learning mit Python und Scikit-learn und TensorFlow
title_sort machine learning mit python und scikit learn und tensorflow das umfassende praxis handbuch fur data science deep learning und predictive analytics
title_sub das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics
topic Maschinelles Lernen (DE-588)4193754-5 gnd
Big Data (DE-588)4802620-7 gnd
Python Programmiersprache (DE-588)4434275-5 gnd
Python 3.4 (DE-588)1053433689 gnd
Datenanalyse (DE-588)4123037-1 gnd
Python 3.5 (DE-588)1113598565 gnd
topic_facet Maschinelles Lernen
Big Data
Python Programmiersprache
Python 3.4
Datenanalyse
Python 3.5
url http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&local_base=BVB01&doc_number=030091852&sequence=000001&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA
work_keys_str_mv AT raschkasebastian pythonmachinelearning
AT mirjalilivahid pythonmachinelearning
AT lorenzenknut pythonmachinelearning
AT mitpverlagsgmbhcokg pythonmachinelearning
AT raschkasebastian machinelearningmitpythonundscikitlearnundtensorflowdasumfassendepraxishandbuchfurdatasciencedeeplearningundpredictiveanalytics
AT mirjalilivahid machinelearningmitpythonundscikitlearnundtensorflowdasumfassendepraxishandbuchfurdatasciencedeeplearningundpredictiveanalytics
AT lorenzenknut machinelearningmitpythonundscikitlearnundtensorflowdasumfassendepraxishandbuchfurdatasciencedeeplearningundpredictiveanalytics
AT mitpverlagsgmbhcokg machinelearningmitpythonundscikitlearnundtensorflowdasumfassendepraxishandbuchfurdatasciencedeeplearningundpredictiveanalytics