Modèles personnalisés

Si vous utilisez des modèles TensorFlow Lite, Firebase ML peut vous aider à faire en sorte que vos utilisateurs se servent toujours la meilleure version disponible de votre modèle personnalisé. Lorsque vous déployez votre modèle avec Firebase, Firebase ML ne télécharge le modèle que lorsque cela est nécessaire. met automatiquement à jour vos utilisateurs avec la dernière version.


Prêt à vous lancer ? Choisissez votre plate-forme:

iOS ou version ultérieure Sur Android


Capacités clés

Déploiement de modèles TensorFlow Lite Déployez vos modèles à l'aide de Firebase pour réduire la taille binaire de votre application et : assurez-vous que votre application utilise toujours la version la plus récente votre modèle
Inférence ML sur l'appareil Effectuer des inférences dans une application Apple ou Android à l'aide de TensorFlow Lite interpréteur avec votre modèle.
Mises à jour automatiques des modèles Configurez les conditions de téléchargement automatique de votre application Nouvelles versions de votre modèle: lorsque l'appareil de l'utilisateur est inactif, en charge ou dispose d'une connexion Wi-Fi

Chemin d'accès de l'exécution

Entraîner votre modèle TensorFlow Créer et entraîner un modèle personnalisé à l'aide de TensorFlow Vous pouvez aussi réentraîner un un modèle existant qui résout un problème similaire à ce que vous souhaitez obtenir.
Convertir le modèle en TensorFlow Lite Convertir votre modèle du format HDF5 ou graphe figé en TensorFlow Lite à l'aide du Convertisseur TensorFlow Lite.
Déployer votre modèle TensorFlow Lite sur Firebase Facultatif: Lorsque vous déployez votre modèle TensorFlow Lite sur Firebase et incluez le SDK Firebase ML dans votre l'application, Firebase ML permet à vos utilisateurs par la dernière version de votre modèle. Vous pouvez le configurer pour qu'il télécharge automatiquement les mises à jour du modèle lorsque l'appareil de l'utilisateur est inactif ou en charge, ou lorsqu'il est connecté au réseau Wi-Fi.
Utiliser le modèle TensorFlow Lite pour l'inférence Utilisez l'interpréteur TensorFlow Lite dans votre application Apple ou Android pour effectuer des inférences avec des modèles déployés à l'aide de Firebase.

Ateliers de programmation

Essayez quelques ateliers de programmation pour découvrir comment Firebase peut vous aider à utiliser les modèles TensorFlow Lite plus facilement et plus efficacement.