Archives par auteur backprop

Random Forest

Cet article explique les forêts aléatoires (Random Forest) en commentant le cours INTRODUCTION TO RANDOM FORESTS de Jeremy Howard (probablement le meilleur formateur au Machine Learning et au Deep Learning). Le principe de la formation retenue par Jeremy est toujours de partir du code, de l’expliquer, d’arriver ensuite à la théorie. On apprend en codant. Ceci suppose de […]

Recension de Machine Learning with TensorFlow de Nishant Shula

Le livre est publié par les éditions MEAP Edition (Manning Edition), un éditeur qui présente de très nombreux livres sur le machine learning. La version étudiée ici est sortie en 2017. L’auteur est Nishant Shula.

Anaconda

Si vous travaillez en local, c’est à dire si vous n’utilisez que les ressources de votre ordinateur pour vos développements, alors choisissez d’installer Anaconda. Comme le dit Wikipedia : Anaconda est une distribution libre et open source1 des langages de programmation Python et R appliqué au développement d’applications dédiées à la science des données et à l’apprentissage automatique (traitement de données à […]

Le Cloud pour le deep learning

Si vous envisagez le Machine Learning, a fortiori le Deep Learning (apprentissage profond), de manière sérieuse, alors inéluctablement se pose à un moment, la question de l’hébergement de vos logiciels et de vos données. Si vous êtes à l’aise avec le HW, vous pouvez bien sûr créer votre propre Deep Learning Box, ce qui vous […]

Repérer les cancers

Dans un article du Figaro du 29/05/2018, intitulé « Un ordinateur pour repérer les cancers », on apprenait qu’un réseau de neurones (CNN) entraîné sur des images de mélanomes effectuait de meilleurs diagnostics que des dermatologues. Je suis nullement étonné du résultat. Je vais même tenter de le démystifier. Un ordinateur a réussi à être meilleur que […]

Ensemble d'apprentissage

Plutôt que d’utiliser un seul prédicteur, pourquoi ne pas en utiliser plusieurs pour prendre la décision. L’exemple est celui proposé par Aurelien Geron dans Hands on Machine Learning with Scikit-learn and Tensorflow Lecture des données [code] from sklearn.model_selection import train_test_split # Make two interleaving half circles # A simple toy dataset to visualize clustering and […]

Régularisation L1

La régularisation est la pénalité pour la complexité d’un modèle. Elle aide à éviter le surapprentissage. Le sur-apprentissage nécessite une régularisation. Mettre certains coefficients à 0, c’est la régularisation L0 (peut utilisée). Dans un vecteur creux de grande dimension, il est judicieux de favoriser des pondérations exactement égales à 0 lorsque c’est possible. La régularisation L2 remplirait-elle […]