Déployez des modèles de machine learning sur des appareils mobiles et de périphérie
TensorFlow Lite est une bibliothèque mobile conçue pour déployer des modèles sur des appareils mobiles, des microcontrôleurs et d'autres appareils de périphérie.
Comment ça marche ?
Choisissez un modèle
Choisissez un nouveau modèle ou réentraînez un modèle existant
Convertir
Convertissez un modèle TensorFlow en un tampon plat compressé avec l'outil de conversion de TensorFlow Lite.
Déployer
Sélectionnez le fichier compressé .tflite, puis importez-le dans un appareil mobile ou un appareil intégré.
Optimiser
Procédez à une quantification en convertissant des nombres à virgule flottante codés sur 32 bits en nombres entiers codés sur 8 bits plus efficaces ou en réalisant l'exécution sur GPU.
Solutions aux problèmes fréquents
Découvrez des modèles TF Lite optimisés et des solutions de machine learning sur appareil pour des cas d'utilisation sur mobiles ou en périphérie.
Identifiez des centaines d'objets, y compris des personnes, des activités, des animaux, des plantes et des lieux.
Détectez de nombreux objets à l'aide de cadres de délimitation (y compris des chiens et des chats).
Utilisez un modèle de langage naturel de pointe pour répondre à des questions portant sur le contenu d'un passage donné à l'aide de BERT.
Implication de la communauté
Découvrez d'autres façons de s'impliquer dans la communauté TensorFlow.
Quelques utilisateurs de TensorFlow Lite
Actualités et annonces
Consultez notre blog pour en savoir plus, et abonnez-vous à notre newsletter TensorFlow pour recevoir directement les dernières annonces.