ALBERT

All Library Books, journals and Electronic Records Telegrafenberg

feed icon rss

Your email was sent successfully. Check your inbox.

An error occurred while sending the email. Please try again.

Proceed reservation?

Export
  • 1
    Call number: 9783958457010 (ebook)
    Description / Table of Contents: Mathematische Grundlagen für Machine und Deep LearningUmfassende Behandlung zeitgemäßer Verfahren: tiefe Feedforward-Netze, Regularisierung, Performance-Optimierung sowie CNNs, Rekurrente und Rekursive Neuronale NetzeZukunftsweisende Deep-Learning-Ansätze sowie von Ian Goodfellow neu entwickelte Konzepte wie Generative Adversarial NetworksDeep Learning ist ein Teilbereich des Machine Learnings und versetzt Computer in die Lage, aus Erfahrungen zu lernen. Dieses Buch behandelt umfassend alle Aspekte, die für den Einsatz und die Anwendung von Deep Learning eine Rolle spielen: In Teil I erläutern die Autoren die mathematischen Grundlagen für Künstliche Intelligenz, Neuronale Netze, Machine Learning und Deep Learning.In Teil II werden die aktuellen in der Praxis genutzten Verfahren und Algorithmen behandelt.In Teil III geben die Autoren Einblick in aktuelle Forschungsansätze und zeigen neue zukunftsweisende Verfahren auf.Dieses Buch richtet sich an Studenten und alle, die sich in der Forschung mit Deep Learning beschäftigen sowie an Softwareentwickler und Informatiker, die Deep Learning für eigene Produkte oder Plattformen einsetzen möchten. Dabei werden Grundkenntnisse in Mathematik, Informatik und Programmierung vorausgesetzt.Teil I: Angewandte Mathematik und Grundlagen für das Machine LearningLineare AlgebraWahrscheinlichkeits- und InformationstheorieBayessche StatistikNumerische BerechnungTeil II: Deep-Learning-VerfahrenTiefe Feedforward-NetzeRegularisierungOptimierung beim Trainieren tiefer ModelleConvolutional Neural NetworksSequenzmodellierung für Rekurrente und Rekursive NetzePraxisorientierte MethodologieAnwendungen: Computer Vision, Spracherkennung, Verarbeitung natürlicher SpracheTeil III: Deep-Learning-ForschungLineare FaktorenmodelleAutoencoderRepresentation LearningProbabilistische graphische ModelleMonte-Carlo-VerfahrenDie PartitionsfunktionApproximative InferenzTiefe generative Modelle wie Restricted Boltzmann Machines, Deep-Belief-Netze, Gerichtete Generative Netze, Variational Autoencoder u.v.m.
    Type of Medium: 12
    Pages: 1 Online-Ressource (xxii, 883 Seiten) , Illustrationen, Diagramme
    Edition: 1. Auflage
    ISBN: 3958457002 , 9783958457003 , 9783958457010 (electronic) , 9783958457027 (electronic)
    Language: German
    Note: Einleitung --- I Angewandte Mathematik und Grundlagen für das Machine Learning --- Lineare Algebra --- Wahrscheinlichkeits- und Informationstheorie --- Numerische Berechnung --- Grundlagen für das Machine Learning --- II Tiefe Netze: Zeitgemäße Verfahren --- Tiefe Feedforward-Netze --- Regularisierung --- Optimierung beim Trainieren von tiefen Modellen --- CNNs --- Sequenzmodellierung: RNNs und rekursive Netze --- Praxisorientierte Methodologie --- Anwendungen --- III Deep-Learning-Forschung --- Lineare Faktorenmodelle --- Autoencoder --- Representation Learning --- Strukturierte probabilistische Modelle für Deep Learning --- Monte-Carlo-Verfahren --- Die Partitionsfunktion --- Approximative Inferenz --- Tiefe generative Modelle --- Literaturverzeichnis --- Abkürzungsverzeichnis --- Index
    Branch Library: GFZ Library
    Location Call Number Expected Availability
    BibTip Others were also interested in ...
  • 2
    Monograph available for loan
    Monograph available for loan
    Cambridge, Massachusetts : The MIT Press
    Call number: 19/M 18.91404
    Description / Table of Contents: Applied math and machine learning basics. Linear algebra -- Probability and information theory -- Numerical computation -- Machine learning basics -- Deep networks: modern practices. Deep feedforward networks -- Regularization for deep learning -- Optimization for training deep models -- Convolutional networks -- Sequence modeling: recurrent and recursive nets -- Practical methodology -- Applications -- Deep learning research. Linear factor models -- Autoencoders -- Representation learning -- Structured probabilistic models for deep learning -- Monte Carlo methods -- Confronting the partition function -- Approximate inference -- Deep generative models
    Type of Medium: Monograph available for loan
    Pages: xxii, 775 Seiten , Illustrationen, Diagramme
    ISBN: 9780262035613
    Series Statement: Adaptive computation and machine learning
    Classification: C.1.
    Parallel Title: Erscheint auch als Deep learning
    Language: English
    Location: Reading room
    Branch Library: GFZ Library
    Location Call Number Expected Availability
    BibTip Others were also interested in ...
  • 3
    Electronic Resource
    Electronic Resource
    Oxford, UK : Blackwell Publishing Ltd
    Computational intelligence 5 (1989), S. 0 
    ISSN: 1467-8640
    Source: Blackwell Publishing Journal Backfiles 1879-2005
    Topics: Computer Science
    Notes: Artificial neural networks capable of doing hard learning offer a new way to undertake automatic speech recognition. The Boltzmann machine algorithm and the error back-propagation algorithm have been used to perform speaker normalization. Spectral segments are represented by spectral lines. Speaker-independent recognition of place of articulation for vowels is performed on lines. Performance of the networks is shown to depend on the coding of the input data. Samples were extracted from continuous speech of 38 speakers. The error rate obtained (4.2% error on test set of 72 samples with the Boltzmann machine and 6.9% error with error back-propagation) is better than that of previous experiments, using the same data, with continuous Hidden Markov Models (7.3% error on test set and 3% error on training set). These experiments are part of an attempt to construct a data-driven speech recognition system with multiple neural networks specialized to different tasks. Results are also reported on the recognition performance of other trained networks, such as one trained on the E-set consonants.
    Type of Medium: Electronic Resource
    Location Call Number Expected Availability
    BibTip Others were also interested in ...
  • 4
    ISSN: 1573-773X
    Source: Springer Online Journal Archives 1860-2000
    Topics: Computer Science
    Notes: Abstract In this paper, we present a framework where a learning rule can be optimized within a parametric learning rule space. We define what we callparametric learning rules and present a theoretical study of theirgeneralization properties when estimated from a set of learning tasks and tested over another set of tasks. We corroborate the results of this study with practical experiments.
    Type of Medium: Electronic Resource
    Location Call Number Expected Availability
    BibTip Others were also interested in ...
Close ⊗
This website uses cookies and the analysis tool Matomo. More information can be found here...