Úplné zobrazení záznamu

Toto je statický export z katalogu ze dne 04.05.2024. Zobrazit aktuální podobu v katalogu.

Bibliografická citace

.
0 (hodnocen0 x )
(4) Půjčeno:4x 
BK
EB
Příručka
První vydání
Praha : Grada Publishing, 2019
328 stran : ilustrace ; 24 cm
Externí odkaz    Plný text PDF (Bookport) 
   * Návod pro Bookport 

objednat
ISBN 978-80-247-3100-1 (brožováno)
ISBN 978-80-271-2750-4 (online ; pdf)
Knihovna programátora
Myslíme v ...
angličtina
Přeloženo z angličtiny
Terminologický slovník
Obsahuje bibliografické odkazy a rejstřík
001473653
Podrobný obsah : Předmluva 11 // Poděkování 12 // O knize 13 // O autorovi 17 // O obálce 18 // Část I: Základy hlubokého učení 19 // 1 Co je hluboké učení? 20 // 1.1 Umělá inteligence, strojové učení a hluboké učení 21 // 1.1.1 Umělá inteligence (artificial intelligence) 21 // 1.1.2 Strojové učení 21 // 1.1.3 Učení se reprezentaci z dat 22 // 1.1.4 Hloubka v hlubokém učení 24 // 1.1.5 Pochopení toho, jak hluboké učení funguje, ve třech krocích 25 // 1.1.6 Čeho hluboké učení dosud dosáhlo 27 // 1.1.7 Nevěřte krátkodobému humbuku 28 // 1.1.8 Příslib AI 29 // 1.2 Před hlubokým učením: stručná historie strojového učení 29 // 1.2.1 Pravděpodobnostní modelování 30 // 1.2.2 Rané neuronové sítě 30 // 1.2.3 Jádrové metody (kernel methods) 31 // 1.2.4 Rozhodovací stromy, náhodné lesy a stroje na posílení gradientu 32 // 1.2.5 Zpět ? neuronovým sítím 32 // 1.2.6 Co dělá hluboké učení odlišným 33 // 1.2.7 Krajina moderního strojového učení 34 // 1.3 Proč hluboké učení? Proč teď? 34 // 1.3.1 Hardware 35 // 1.3.2 Data 36 // 1.3.3 Algoritmy 36 // 1.3.4 Nová vlna investic 37 // 1.3.5 Demokratizace hlubokého učení 37 // 1.3.6 Bude to trvat? 37 // 2 Než začneme: matematické stavební bloky neuronových sítí 39 // 2.1 První pohled na neuronovou síť 39 // 2.2 Reprezentace dat pro neuronové sítě 43 // 2.2.1 Skaláry (OD tenzory) 43 // 2.2.2 Vektory (1D tenzory) 43 // 2.2.3 Matice (2D tenzory) 44 // 2.2.4 3D tenzory a vícedimensionální tenzory 44 // 2.2.5 Klíčové atributy 44 // 2.2.6 Manipulace s tenzory v NumPy 45 // 2.2.7 Pojem dávek dat 46 // 2.2.8 Příklady datových tenzorů v reálném světě 46 // 2.2.9 Vektorová data 47 // 2.2.10 Časové řady nebo sekvenční data 47 // 2.2.11 Obrazová data 48 // 2.2.12 Video data 48 //
2.3 Nástroje neuronových sítí: tenzorové operace 49 // 2.3.1 Operace po prvcích 49 // 2.3.2 Vysílání (Broadcasting) 50 // 2.3.3 Tenzorový součin 51 // 2.3.4 Změna tvaru tenzoru (Tensor reshaping) 53 // 2.3.5 Geometrická interpretace tenzorových operací 54 // 2.3.6 Geometrická interpretace hlubokého učení 55 // 2.4 Motor neuronových sítí: optimalizace založená na gradientu 56 // 2.4.1 Co je derivace? 57 // 2.4.2 Derivace tenzorové operace: gradient 58 // 2.4.3 Stochastický gradientní sestup 58 // 2.4.4 Zřetězení derivací: algoritmus zpětného šíření 61 // 2.5 Ohlédnutí se na první příklad 61 // 2.6 Shrnutí kapitoly 62 // 3 Začínáme s neuronovými sítěmi 64 // 3.1 Anatomie neuronové sítě 65 // 3.1.1 Vrstvy: stavební bloky hlubokého učení 65 // 3.1.2 Modely: sítě vrstev 66 // 3.1.3 Ztrátové funkce a optimalizátory: klíče pro konfiguraci učebního procesu 67 // 3.2 Úvod do frameworku Keras 67 // 3.2.1 Keras, TensorFlow, Theano, and CNTK 68 // 3.2.2 Vývoj s frameworkem Keras: rychlý přehled 69 // 3.3 Nastavení pracovní stanice pro hluboké učení 70 // 3.3.1 Notebooky Jupyter: doporučený způsob pro experimenty s hlubokým učením 71 // 3.3.2 Spuštění frameworku Keras: dvě možnosti 71 // 3.3.3 Spouštění hlubokého učení v cloudu: klady a zápory 71 // 3.3.4 Jaká je nejlepší GPU pro hluboké učení? 72 // 3.4 Hodnocení filmových recenzí: Příklad binární klasifikace 72 // 3.4.1 Datová množina IMDB 72 // 3.4.2 Příprava dat 73 // 3.4.3 Vytváření vaší sítě 74 // 3.4.4 Ověření vašeho přístupu 77 // 3.4.5 Použití naučené sítě pro generování predikcí pro nová data 80 // 3.4.6 Další experimenty 81 // 3.4.7 Shrnutí 81 // 3.5 Klasifikace novinek: příklad klasifikace do více tříd 81 // 3.5.1 Soubor dat Reuters 82 // 3.5.2 Příprava dat 82 //
3.5.3 Vytvoření vaší sítě 83 // 3.5.4 Ověření vašeho přístupu 84 // 3.5.5 Generování predikcí pro nová data 87 // 3.5.6 Jiný způsob manipulace s označeními tříd a ztrátou 87 // 3.5.7 Důležitost dostatečně velkých mezivrstev 87 // 3.5.8 Další experimenty 88 // 3.5.9 Shrnutí 88 // 3.6 Predikce cen nemovitostí: příklad regrese 89 // 3.6.1 Datová množina cen bydlení v Bostonu 89 // 3.6.2 Příprava dat 89 // 3.6.3 Vytvoření vaší sítě 90 // 3.6.4 Ověření vašeho přístupu použitím k-násobné validace 91 // 3.6.5 Shrnutí 95 // 3.7 Shrnutí kapitoly 95 // 4 Základy strojového učení 96 // 4.1 Čtyři větve strojového učení 96 // 4.1.1 Řízené učení (učení s učitelem, supervised learning) 96 // 4.1.2 Neřízené učení (učení bez učitele, unsupervised learning) 97 // 4.1.3 Samořízené učení (self-supervised learning) 97 // 4.1.4 Posilované učení (reinforcement learning) 98 // 4.2 Vyhodnocení modelů strojového učení 98 // 4.2.1 Trénovací, validační a testovací množiny 98 // 4.2.2 Věci, které je třeba mít na paměti 102 // 4.3 Předzpracování dat, konstrukce příznaků a učení se příznaků 103 // 4.3.1 Předzpracování dat pro neuronové sítě 103 // 8 // Deep learning v jazyku Python - Knihovny Keras, TensorFlow // 4.3.2 Konstrukce příznaků (feature engineering) 104 // 4.4 Přeučení (overfitting) a podučení (underfitting) 105 // 4.4.1 Redukce velkosti sítě 106 // 4.4.2 Přidání váhové regularizace 108 // 4.4.3 Přidání výpadku 110 // 4.5 Univerzální pracovní postup strojového učení 112 // 4.5.1 Definice problému a sestavení datové množiny 112 // 4.5.2 Výběr míry úspěchu 113 // 4.5.3 Rozhodování o evaluačním protokolu 113 // 4.5.4 Příprava dat 113 // 4.5.5 Vývoj modelu, který je lepší než náhodný klasifikátor 113 //
4.5.6 Rozšiřování: vyvíjení přeučeného modelu 115 // 4.5.7 Regularizujte svůj model a vylaďte hyperparametry 115 // 4.6 Shrnutí kapitoly 116 // Část II: Hluboké učení v praxi 117 // 5 Hluboké učení pro počítačové vidění 118 // 5.1 Seznámení s CNN 118 // 5.1.1 Konvoluční operace 121 // 5.1.2 Operace sdružování dle maxima (max-pooling) 124 // 5.2 Trénování CNN od nuly na malé množině dat 126 // 5.2.1 Význam hlubokého učení pro úlohy s malými daty 126 // 5.2.2 Stažení dat 127 // 5.2.3 Vytvoření sítě 129 // 5.2.4 Předzpracování dat 131 // 5.2.5 Použití rozšíření dat (data augmentation) 134 // 5.3 Použití předtrénované CNN 139 // 5.3.1 Extrakce příznaků 139 // 5.3.2 Jemné doladění 148 // 5.3.3 Shrnutí 152 // 5.4 Vizualizace toho, co se CNN naučí 153 // 5.4.1 Zobrazení průběžných aktivací 153 // 5.4.2 Vizualizace filtrů CNN 159 // 5.4.3 Zobrazení teplotních map aktivací třídy 165 // 5.5 Shrnutí kapitoly 169 // 6 Hluboké učení pro texty a sekvenční data 170 // 6.1 Práce s textovými daty 171 // 6.1.1 Kódování slova znaků kódem 1-z-n 172 // 6.1.2 Použití vnoření slov 174 // 6.1.3 Dáváme to dohromady: od surového textu k vnoření slov 178 // 6.1.4 Shrnutí 184 // 6.2 Pochopení rekurentních neuronových sítí 185 // 6.2.1 Rekurentní vrstvy v Keras 187 // 6.2.2 Pochopení vrstev LSTM a GRD 191 // 6.2.3 Konkrétní příklad LSTM v Keras 193 // 6.2.4 Shrnutí 194 // 6.3 Pokročilé používání rekurentních neuronových sítí 195 // 6.3.1 Problém predikce teplot 195 // 6.3.2 Příprava dat 197 // 6.3.3 Zdravý rozum jako referenční hodnota 200 // 6.3.4 Základní přístup ke strojovému učení 201 // 6.3.5 První rekurentní referenční hodnota 202 // 6.3.6 Použití rekurentního výpadku v boji proti přeučení 203 //
6.3.7 Stohování rekurentních vrstev 205 // 6.3.8 Použití obousměrných RNN 205 // 6.3.9 Pokračujme ještě dále 209 // 6.3.10 Shrnutí 209 // 6.4 Zpracování sekvencí s CNN 210 // 6.4.1 Pochopení 1D konvolucí pro sekvenční data 211 // 6.4.2 1D sdružování pro sekvenční data 211 // 6.4.3 Implementace 1D CNN 211 // 6.4.4 Kombinace CNN a RNN pro zpracování dlouhých sekvencí 213 // Podrobný obsah // 6.4.5 Shrnutí // 6.5 Shrnutí kapitoly // Nejlepší praktiky pokročilého hlubokého učení // 7.1 Za rámec sekvenčního modelu: funkcionální API Keras // 7.1.1 Úvod do funkcionálního API // 7.1.2 Modely s více vstupy // 7.1.3 Modely s více výstupy // 7.1.4 Orientované acyklické grafy vrstev // 7.1.5 Sdílení vah vrstvy // 7.1.6 Modely jako vrstvy // 7.2 Kontrola a sledování modelů hlubokého učení pomocí zpětného volání a frameworku TensorBoard // 7.2.1 Použití zpětných volání ? ovlivnění modelu během trénování // 7.2.2 Úvod do TensorBoard: vizualizační framework TensorFlow // 7.2.3 Shrnutí // 7.3 Získání maxima z vašich modelů // 7.3.1 Pokročilé architektonické vzory // 7.3.2 Optimalizace hyperparametrů // 7.3.3 Kombinování modelů // 7.3.4 Shrnutí // 7.4 Shrnutí kapitoly // Generativní hluboké učení // 8.1 Generování textu s LSTM // 8.1.1 Stručná historie generativních rekurentních sítí // 8.1.2 Jak generovat sekvenční data // 8.1.3 Důležitost strategie výběru příkladů // 8.1.4 Implementace LSTM generátoru textu na úrovni znaků // 8.1.5 Shrnutí // 8.2 DeepDream // 8.2.1 Implementace DeepDreams v Keras // 8.2.2 Shrnutí // 8.3 Neuronový přenos stylu // 8.3.1 Ztráta obsahu // 8.3.2 Ztráta stylu // 8.3.3 Neuronový přenos stylu v Kerasu // 8.3.4 Shrnutí // 8.4 Generování snímků s variačními autoenkodéry // 8.4.1 Výběr příkladů z latentních prostor obrázků //
8.4.2 Koncepční vektory pro úpravu obrázků // 8.4.3 Variační autoenkodéry // 8.4.4 Shrnutí // 8.5 Úvod do generativních soupeřících sítí // 8.5.1 Schematická implementace GAN // 8.5.2 Sáček triků // 8.5.3 Generátor // 8.5.4 Diskriminátor // 8.5.5 Soupeřící sítě // 8.5.6 Jak natrénovat svoji DCGAN // 8.5.7 Shrnutí // 8.6 Shrnutí kapitoly // Závěr // 9.1 Přehled klíčových pojmů // 9.1.1 Různé přístupy ? AI // 9.1.2 Co dělá hluboké učení zvláštním v oblasti strojového učení // 9.1.3 Jak uvažovat o hlubokém učení // 9.1.4 Klíčové technologie // 9.1.5 Univerzální postup strojového učení // 9.1.6 Klíčové síťové architektury // 9.1.7 Prostor možností // 9.2 Omezení hlubokého učení // 9.2.1 Riziko antropomorfizace modelů strojového učení // 9.2.2 Místní generalizace vs. extrémní generalizace // 9.2.3 Shrnutí // 9.3 Budoucnost hlubokého učení 300 // 9.3.1 Modely jako programy 301 // 9.3.2 Za zpětným šířením a diferencovatelnými vrstvami 302 // 9.3.3 Automatizované strojové učení 303 // 9.3.4 Celoživotní učení a modulární opakované použití podprogramu 303 // 9.3.5 Dlouhodobá vize 305 // 9.4 Zůstaňte v obraze v rychle se vyvíjející oblasti 305 // 9.4.1 Praxe na reálných úlohách pomocí Kaggle 306 // 9.4.2 Přečtěte si o nejnovějším vývoji na arXiv 306 // 9.4.3 Prozkoumejte ekosystém Keras 306 // 9.5 Závěrečné slovo 307 // Část III: Přílohy 309 // A. Keras - jeho instalace a závislosti na Ubuntu 310 // A.1 Instalace vědecké sady Pythonu 311 // A.2 Nastavení podpory GPU 311 // A.3 Instalace Theano (volitelná) 312 // A. 4 Instalace Keras 313 // B. Spuštění notebooku Jupyter na instanci EC2 GPU 314 // B. 1 Co jsou notebooky Jupyter? Proč je provozovat GPU na AWS? 314 //
B.2 Proč byste nechtěli pro hluboké učení používat Jupyter na AWS? 315 // B.3 Nastavení instance AWS GPU 315 // B.3.1 Konfigurace Jupyteru 317 // B.4 Instalace Keras 318 // B.5 Nastavení místního přesměrování portů 319 // B. 6 Použití Jupyteru z vašeho prohlížeče 319 // C. Terminologický slovník 321 // C. 1 Používané zkratky 321 // C.2 Anglicko-český 321 // Rejstřík 327

Zvolte formát: Standardní formát Katalogizační záznam Zkrácený záznam S textovými návěštími S kódy polí MARC