MNIST – lecture de la base

MNIST est le « Hello World » du Deep Learning. Nous avons déjà écrit plusieurs articles à son sujet afin de présenter diverses méthodes de résolution du problème de classification de chiffres manuscrits.

Depuis l’écriture de nos articles, Google a mis gratuitement à la disposition de tous, Google Colaboratory qui permet d’exécuter dans un environnement GPU les logiciels qui s’appuient sur TensorFlow mais aussi PyTorch et fastai.

Ce nouvel article sera donc couplé à un notebook Jupyter que vous pourrez exécuter dans Colab.

La base

MNIST  pour Modified ou Mixed National Institute of Standards and Technology, est une base de données de chiffres écrits à la main. Pour l’historique de la création de cette base, voir Yann LeCun.

MNIST comprend un lot de 60 000 images dédiées à l’apprentissage et de 10 000 images pour le test set.

The MNIST database of handwritten digits, available from this page, has a training set of 60,000 examples, and a test set of 10,000 examples. It is a subset of a larger set available from NIST. The digits have been size-normalized and centered in a fixed-size image.It is a good database for people who want to try learning techniques and pattern recognition methods on real-world data while spending minimal efforts on preprocessing and formatting.

http://yann.lecun.com/exdb/mnist/

Lecture

https://gist.github.com/ia35/b4a5a28b1db9ec72993476a2cb651655

Les résultats

Les meilleurs résultats obtenus dans la détection des chiffres de la base de données MNIST sont inférieurs à 0,21% en 2013.

Vous pouvez aussi jouer avec le simulateur de TensorFlow pour voir les performances.

This examples lets you train a handwritten digit recognizer using either a Convolutional Neural Network (also known as a ConvNet or CNN) or a Fully Connected Neural Network (also known as a DenseNet).

https://storage.googleapis.com/tfjs-examples/mnist/dist/index.html

Les articles suivants présentent diverses méthodes de classification.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.