Używamy cookies, aby ułatwić korzystanie z Portalu. Możesz określić warunki przechowywania, dostępu do plików cookies w Twojej przeglądarce. Dowiedz się więcej.
strona główna Strona główna | Nowości | Promocje | Zapowiedzi Twoje konto | Zarejestruj | Schowek | Kontakt | Pomoc
mapa działów
Szukaj: szukanie zaawansowane
Koszyk

Deep learning z TensorFlow 2 i Keras dla zaawansowanych. Sieci GAN i VAE, deep RL, uczenie nienadzorowane, wykrywanie i segmentacja obiektów i nie tylko. Wydanie II Język: 1

978-83-283-8883-3

Cena Brutto: 89.00

Cena netto: 84.76

Ilość:
Wersja: Drukowana
Autor Rowel Atienza
Liczba_stron 432
Wydawnictwo Helion
Oprawa miękka
Data_Wydania 2022-06-27

Oto propozycja dla specjalistów zajmujących się programowaniem sztucznej inteligencji i studentów kształcących się w tej dziedzinie. Autor przybliża tajniki tworzenia sieci neuronowych stosowanych w uczeniu głębokim i pokazuje, w jaki sposób używać w tym celu bibliotek Keras i TensorFlow. Objaśnia zagadnienia dotyczące programowania AI zarówno w teorii, jak i praktyce. Liczne przykłady, czytelna oprawa graficzna i logiczne wywody sprawiają, że to skuteczne narzędzie dla każdego, kto chce się nauczyć budowania sieci neuronowych typu MLP, CNN i RNN.


Książka wprowadza w teoretyczne fundamenty uczenia głębokiego - znalazły się w niej wyjaśnienia podstawowych pojęć związanych z tą dziedziną i różnice pomiędzy poszczególnymi typami sieci neuronowych. Opisano tutaj również metody programowania algorytmów używanych w uczeniu głębokim i sposoby ich wdrażania. Dzięki lekturze lepiej zrozumiesz sieci neuronowe, nauczysz się ich tworzenia i zastosowania w różnych projektach z zakresu AI.

Polecamy tę książkę każdemu, kto:

  • chce zrozumieć, jak działają sieci neuronowe i w jaki sposób się je tworzy
  • specjalizuje się w uczeniu głębokim lub zamierza lepiej poznać tę dziedzinę
  • posługuje się sieciami neuronowymi w programowaniu
  • chce się nauczyć stosować biblioteki Keras i TensorFlow w uczeniu głębokim

    O autorze

    O recenzencie

    Przedmowa

    Rozdział 1. Wprowadzenie do uczenia głębokiego z Keras

    • 1.1. Dlaczego Keras jest idealną biblioteką do uczenia głębokiego?
      • Instalowanie biblioteki Keras i TensorFlow
    • 1.2. Sieci MLP, CNN i RNN
      • Różnice między MLP, CNN i RNN
    • 1.3. Perceptron wielowarstwowy (MLP)
      • Zbiór danych MNIST
      • Model klasyfikatora cyfr MNIST
      • Budowanie modelu przy użyciu MLP i Keras
      • Regularyzacja
      • Funkcja aktywacji i funkcja straty
      • Optymalizacja
      • Ocena wydajności
      • Podsumowanie modelu MLP
    • 1.4. Splotowa (konwolucyjna) sieć neuronowa
      • Splot
      • Operacje łączenia
      • Ocena wydajności i podsumowanie modelu
    • 1.5. Rekurencyjna sieć neuronowa
    • 1.6. Wnioski
    • 1.7. Odwołania

    Rozdział 2. Głębokie sieci neuronowe

    • 2.1. Funkcyjne API Keras
      • Tworzenie modelu o dwóch wejściach i jednym wyjściu
    • 2.2. Głęboka sieć resztkowa (ResNet)
    • 2.3. ResNet v2
    • 2.4. Gęsto połączona sieć splotowa (DenseNet)
      • Budowa stuwarstwowej sieci DenseNet-BC dla CIFAR10
    • 2.5. Podsumowanie
    • 2.6. Bibliografia

    Rozdział 3. Sieci autokodujące

    • 3.1. Zasada działania sieci autokodującej
    • 3.2. Budowanie sieci autokodującej za pomocą Keras
    • 3.3. Autokodujące sieci odszumiające (DAE)
    • 3.4. Automatyczne kolorowanie z użyciem autokodera
    • 3.5. Podsumowanie
    • 3.6. Bibliografia

    Rozdział 4. Generujące sieci współzawodniczące

    • 4.1. GAN - informacje wprowadzające
      • Podstawy GAN
    • 4.2. Implementacja DCGAN w Keras
    • 4.3. Warunkowe sieci GAN
    • 4.4. Podsumowanie
    • 4.5. Bibliografia

    Rozdział 5. Ulepszone sieci GAN

    • 5.1. Sieć GAN Wassersteina
      • Funkcje odległości
      • Funkcja odległości w GAN
      • Wykorzystanie funkcji straty Wassersteina
      • Implementacja WGAN przy użyciu Keras
    • 5.2. GAN z metodą najmniejszych kwadratów (LSGAN)
    • 5.3. Pomocniczy klasyfikator GAN (ACGAN)
    • 5.4. Podsumowanie
    • 5.5. Bibliografia

    Rozdział 6. Rozplątane reprezentacje w GAN

    • 6.1. Rozplątane reprezentacje
    • 6.2. Sieć InfoGAN
      • Implementacja InfoGAN w Keras
      • Ocena rezultatów działania generatora sieci InfoGAN
    • 6.3. Sieci StackedGAN
      • Implementacja sieci StackedGAN w Keras
      • Ocena rezultatów działania generatora StackedGAN
    • 6.4. Podsumowanie
    • 6.5. Bibliografia

    Rozdział 7. Międzydomenowe GAN

    • 7.1. Podstawy sieci CycleGAN
      • Model sieci CycleGAN
      • Implementacja CycleGAN przy użyciu Keras
      • Wyjścia generatora CycleGAN
      • CycleGAN na zbiorach danych MNIST i SVHN
    • 7.2. Podsumowanie
    • 7.3. Bibliografia

    Rozdział 8. Wariacyjne sieci autokodujące (VAE)

    • 8.1. Podstawy sieci VAE
      • Wnioskowanie wariacyjne
      • Podstawowe równanie
      • Optymalizacja
      • Sztuczka z reparametryzacją
      • Testowanie dekodera
      • VAE w Keras
      • Korzystanie z CNN w sieciach autokodujących
    • 8.2. Warunkowe VAE (CVAE)
    • 8.3. B-VAE - VAE z rozplątanymi niejawnymi reprezentacjami
    • 8.4. Podsumowanie
    • 8.5. Bibliografia

    Rozdział 9. Uczenie głębokie ze wzmocnieniem

    • 9.1. Podstawy uczenia ze wzmocnieniem (RL)
    • 9.2. Wartość Q
    • 9.3. Przykład Q-uczenia
      • Q-uczenie w języku Python
    • 9.4. Otoczenie niedeterministyczne
    • 9.5. Uczenie z wykorzystaniem różnic czasowych
      • Q-uczenie w Open AI Gym
    • 9.6. Głęboka sieć Q (DQN)
      • Implementacja DQN w Keras
      • Q-uczenie podwójnej sieci DQN (DDQN)
    • 9.7. Podsumowanie
    • 9.8. Bibliografia

    Rozdział 10. Strategie w metodach gradientowych

    • 10.1. Twierdzenie o gradiencie strategii
    • 10.2. Metoda strategii gradientowych Monte Carlo (WZMOCNIENIE)
    • 10.3. Metoda WZMOCNIENIE z wartością bazową
    • 10.4. Metoda Aktor-Krytyk
    • 10.5. Metoda Aktor-Krytyk z przewagą (A2C)
    • 10.6. Metody strategii gradientowych przy użyciu Keras
    • 10.7. Ocena wydajności metod strategii gradientowej
    • 10.8. Podsumowanie
    • 10.9. Bibliografia

    Rozdział 11. Wykrywanie obiektów

    • 11.1. Wykrywanie obiektów
    • 11.2. Pole zakotwiczenia
    • 11.3. Referencyjne pola zakotwiczenia
    • 11.4. Funkcje strat
    • 11.5. Architektura modelu SSD
    • 11.6. Architektura modelu SSD w Keras
    • 11.7. Obiekty SSD w Keras
    • 11.8. Model SSD w Keras
    • 11.9. Model generatora danych w Keras
    • 11.10. Przykładowy zbiór danych
    • 11.11. Szkolenie modelu SSD
    • 11.12. Algorytm niemaksymalnego tłumienia (NMS)
    • 11.13. Walidacja modelu SSD
    • 11.14. Podsumowanie
    • 11.15. Bibliografia

    Rozdział 12. Segmentacja semantyczna

    • 12.1. Segmentacja
    • 12.2. Sieć do segmentacji semantycznej
    • 12.3. Sieć do segmentacji semantycznej w Keras
    • 12.4. Przykładowy zbiór danych
    • 12.5. Walidacja segmentacji semantycznej
    • 12.6. Podsumowanie
    • 12.7. Bibliografia

    Rozdział 13. Uczenie nienadzorowane z wykorzystaniem informacji wzajemnej

    • 13.1. Informacja wzajemna
    • 13.2. Informacja wzajemna i entropia
    • 13.3. Uczenie nienadzorowane przez maksymalizację informacji wzajemnej o dyskretnych zmiennych losowych
    • 13.4. Sieć koderów do grupowania nienadzorowanego
    • 13.5. Implementacja nienadzorowanego grupowania w Keras
    • 13.6. Walidacja na zbiorze cyfr MNIST
    • 13.7. Uczenie nienadzorowane poprzez maksymalizację informacji wzajemnej ciągłych zmiennych losowych
    • 13.8. Szacowanie informacji wzajemnej dwuwymiarowego rozkładu Gaussa
    • 13.9. Grupowanie nienadzorowane z wykorzystaniem ciągłych zmiennych losowych w Keras
    • 13.10. Podsumowanie
    • 13.11. Bibliografia
powrót