Résumé:
Ce mémoire explore la reconnaissance des chiffres manuscrits en combinant l'apprentissage profond et le calcul d'ordre fractionnaire. L'objectif principal est d'évaluer l'impact de l'intégration du calcul fractionnaire dans les règles de mise à jour des poids lors de l'apprentissage des réseaux de neurones. Diverses méthodes d'optimisation, architectures de réseaux et modifications sont étudiées. Les résultats expérimentaux démontrent la supériorité des optimiseurs fractionnaires, en particulier FAdam, par rapport aux optimiseurs classiques. Les réseaux de neurones convolutionnels avec trois couches cachées couplés à FAdam offrent les meilleures performances pour la reconnaissance des chiffres manuscrits de la base MNIST. Cette approche ouvre de nouvelles perspectives pour l'intégration du calcul fractionnaire dans l'apprentissage profond et l'intelligence artificielle.