Big data, machine learning et apprentissage profond / Stéphane Tufféry,... [ Livre]
Langue : français.Publication : Description : 1 vol. (XVI-580 p.) : ill. en noir et en coul., couv. ill. en coul. ; 24 cmISBN : 9782710811886.Dewey : 006.31, 23Classification : ; ; Résumé : La 4e de couv. indique : "Dans cet ouvrage, les Big Data sont abordées du point de vue des applications, des méthodes d'analyse et de modélisation, des outils informatiques, et de l'optimisation de la programmation dans R et dans d'autres logiciels, dont Spark et H2O. Les principes de l'apprentissage profond sont détaillés, et tout particulièrement les réseaux de neurones convolutifs et récurrents. On rappelle ce que sont la descente du gradient et le mécanisme de rétropropagation, leurs difficultés (sur-apprentissage, évanouissement du gradient) et les solutions apportées (dropout, normalisation par lot, activation ReLU…). Les applications à la reconnaissance d'image et les architectures élaborées ces dernières années sont ensuite décrites, de même que des applications aux jeux de stratégie et dans le domaine artistique avec les modèles génératifs.Ces méthodes sont ensuite mises en oeuvre avec trois des principales bibliothèques d’apprentissage profond : MXNet, PyTorch et Keras-TensorFlow. On montre comment créer et entraîner un réseau convolutif, et comment l’appliquer à des problèmes de classement d’images. On montre comment améliorer leur reconnaissance en recourant à l’augmentation de données et à l’apprentissage par transfert. On compare les résultats des méthodes profondes à ceux des méthodes « classiques » de machine learning : régression pénalisée, forêts aléatoires, extra-trees, gradient boosting, SVM et perceptron. On montre aussi la puissance de calcul des processeurs graphiques (GPU). Le traitement du langage naturel commence ensuite par les questions linguistiques classiques : étiquetage grammatical, reconnaissance des entités nommées, résolution des coréférences et lemmatisation. Puis viennent les représentations vectorielles et les méthodes de plongements de mots. On parle aussi de la modélisation de thématiques, que l’on applique à À la recherche du temps perdu de Proust. Les réseaux de neurones récurrents LSTM et GRU sont ensuite mis en oeuvre dans deux tâches bien différentes : la génération de texte et le classement de documents. Un aperçu est donné de l’analyse de sentiments. L’analyse des réseaux sociaux et plus particulièrement d’un corpus de tweets est vue comme convergence des méthodes de Big Data, de théorie des graphes et de traitement du langage naturel. L’ouvrage se conclut par une perspective sur l’intelligence artificielle, à la fois comme application des méthodes vues précédemment et comme source de réflexions sur l’évolution et les défis de l’intelligence artificielle, et ce qui la sépare de l’intelligence humaine.".Bibliographie : Bibliogr. p. [569]-575. Notes bibliogr. et webogr. en bas de pages. Index.Sujet - Nom commun: Bases de données | Intelligence artificielle | Bases de données -- Gestion | Données massives | Apprentissage profondType de document | Site actuel | Cote | Statut | Date de retour prévue |
---|---|---|---|---|
Livre | Bibliothèque de l'Ecole Nationale de Commerce et de Gestion de Casablanca Rez de chaussee | 006.31 (Parcourir l'étagère) | Disponible | |
Livre | Bibliothèque de l'Ecole Nationale de Commerce et de Gestion de Casablanca Rez de chaussee | 006.31 (Parcourir l'étagère) | Disponible |
Survol Bibliothèque de l'Ecole Nationale de Commerce et de Gestion de Casablanca Étagères , Localisation : Rez de chaussee Fermer le survol d'étagère
La couverture indique : "Analyse de sentiments. Apprentissage par transfert. Deep learning. Données massives. Graphes et réseaux sociaux. Intelligence artificielle. Reconnaissance d'image. Réseaux convolutifs et récurrents. Systèmes de recommandation. Traitement du langage naturel "
Bibliogr. p. [569]-575. Notes bibliogr. et webogr. en bas de pages. Index
La 4e de couv. indique : "Dans cet ouvrage, les Big Data sont abordées du point de vue des applications, des méthodes d'analyse et de modélisation, des outils informatiques, et de l'optimisation de la programmation dans R et dans d'autres logiciels, dont Spark et H2O. Les principes de l'apprentissage profond sont détaillés, et tout particulièrement les réseaux de neurones convolutifs et récurrents. On rappelle ce que sont la descente du gradient et le mécanisme de rétropropagation, leurs difficultés (sur-apprentissage, évanouissement du gradient) et les solutions apportées (dropout, normalisation par lot, activation ReLU…). Les applications à la reconnaissance d'image et les architectures élaborées ces dernières années sont ensuite décrites, de même que des applications aux jeux de stratégie et dans le domaine artistique avec les modèles génératifs.Ces méthodes sont ensuite mises en oeuvre avec trois des principales bibliothèques d’apprentissage profond : MXNet, PyTorch et Keras-TensorFlow. On montre comment créer et entraîner un réseau convolutif, et comment l’appliquer à des problèmes de classement d’images. On montre comment améliorer leur reconnaissance en recourant à l’augmentation de données et à l’apprentissage par transfert. On compare les résultats des méthodes profondes à ceux des méthodes « classiques » de machine learning : régression pénalisée, forêts aléatoires, extra-trees, gradient boosting, SVM et perceptron. On montre aussi la puissance de calcul des processeurs graphiques (GPU). Le traitement du langage naturel commence ensuite par les questions linguistiques classiques : étiquetage grammatical, reconnaissance des entités nommées, résolution des coréférences et lemmatisation. Puis viennent les représentations vectorielles et les méthodes de plongements de mots. On parle aussi de la modélisation de thématiques, que l’on applique à À la recherche du temps perdu de Proust. Les réseaux de neurones récurrents LSTM et GRU sont ensuite mis en oeuvre dans deux tâches bien différentes : la génération de texte et le classement de documents. Un aperçu est donné de l’analyse de sentiments. L’analyse des réseaux sociaux et plus particulièrement d’un corpus de tweets est vue comme convergence des méthodes de Big Data, de théorie des graphes et de traitement du langage naturel. L’ouvrage se conclut par une perspective sur l’intelligence artificielle, à la fois comme application des méthodes vues précédemment et comme source de réflexions sur l’évolution et les défis de l’intelligence artificielle, et ce qui la sépare de l’intelligence humaine."
Il n'y a pas de commentaire pour ce document.